Материалы по тегу: периферийные вычисления

15.03.2023 [15:05], Сергей Карасёв

AIC оснастит edge-сервер EB202-CP процессорами AMD EPYC Embedded 9004

Компания AIC сообщила о том, что её сервер EB202-CP для периферийных вычислений и приложений ИИ может комплектоваться новейшими процессорами AMD серии EPYC Embedded 9004 (Genoa). Эти чипы насчитывают до  96 вычислительных ядер, а объём кеша L3 достигает 384 Мбайт.

Стоечный сервер EB202-CP имеет формат 2U с глубиной 22″. Возможно применение чипа Genoa с показателем TDP до 320 Вт. Имеются восемь слотов для модулей оперативной памяти DDR5-4800. Во фронтальной части предусмотрены восемь отсеков для накопителей E1.S/E3.S или U.2 с поддержкой горячей замены. Кроме того, могут быть задействованы два внутренних твердотельных модуля M.2 22110 с интерфейсом PCIe 5.0 x4. За возможности расширения отвечают два слота PCIe 5.0 x16, четыре разъёма MCIO (x16) и слот OCP 3.0 (PCIe 5.0 x16).

 Источник изображения: AIC

Источник изображения: AIC

В оснащение входят два порта SATA 3.0 с поддержкой RAID 0/1, BMC AST2600 (eSPI) и 1GbE-адаптер Broadcom BCM5720. На лицевую панель выведены два порта USB 2.0. Сзади находятся два разъёма USB 3.0 Type-A, гнездо RJ-45, разъём Mini DisplayPort и последовательный порт, на базе которого реализован аудиоинтерфейс. Габариты сервера составляют 438 × 558,8 × 87,2 мм. Диапазон рабочих температур простирается от 0 до +35 ºC. Поддерживается установка двух блоков питания на 1200 Вт. Система воздушного охлаждения содержит четыре вентилятора с размерами 60 × 56 мм и два дополнительных вентилятора формата 40 × 28 мм в области накопителей.

Постоянный URL: http://servernews.ru/1083418
10.03.2023 [14:33], Сергей Карасёв

Lenovo представила модульные edge-компьютеры ThinkEdge SE10 и SE10-I

Компания Lenovo в ходе выставки MWC 2023 анонсировала компактные компьютеры ThinkEdge SE10 и SE10-I для периферийных нагрузок. Устройства могут применяться в таких сферах, как логистика, производство, ретейл, различные интеллектуальные площадки и пр. Новинки получили защищённое исполнение, а в конструкции не используются вентиляторы охлаждения. Благодаря модульному дизайну заказчики смогут адаптировать компьютеры под собственные нужды.

 Источник изображения: Lenovo

Источник изображения: Lenovo

В основу положена аппаратная платформа Intel Atom (Elkhart Lake). Модель ThinkEdge SE10 может комплектоваться чипом с двумя или четырьмя ядрами с показателем TDP 6/12 Вт. Поддерживается до 32 Гбайт DDR4 в виде двух модулей SO-DIMM. Может быть установлен накопитель M.2 вместимостью до 1 Тбайт; кроме того, есть слот SD. Объём корпуса составляет 0,8 л. Поддерживается связь Wi-Fi и 4G. В набор интерфейсов входят порты USB, HDMI и DP, последовательный порт. Предусмотрен контроллер 1GbE. Диапазон рабочих температур — от 0 до +50 °C. Питание подаётся через адаптер на 110/220 В.

 Источник изображения: Lenovo

Источник изображения: Lenovo

Вторая модель, ThinkEdge SE10-I, несёт на борту процессор Atom с двумя ядрами и TDP в 6 Вт. Объём ОЗУ достигает 32 Гбайт. В оснащение входит флеш-модуль eMMC на 64 Гбайт. Предусмотрены коннектор для накопителя М.2 (до 1 Тбай) и слот SD. Присутствуют контроллеры Wi-Fi и Bluetooth, модем 4G и двухпортовый адаптер 1GbE. Есть четыре порта USB, два последовательных порта, интерфейсы HDMI и DP. Объём корпуса — 1,4 л. Поддерживается DC-питание 9–36 В. Диапазон рабочих температур — от -20 до +60 °C.

Для обеих новинок возможно исполнение в соответствии со стандартом IP50. Может быть установлена операционная система Windows 10 IoT LTSC, Ubuntu Server или Ubuntu Core.

Постоянный URL: http://servernews.ru/1083178
07.03.2023 [22:28], Руслан Авдеев

Lonestar привлекла $5 млн на постройку первого ЦОД на Луне уже в этом году

Компания Lonestar Data Holdings, мечтающая о строительстве дата-центров на Луне, привлекла $5 млн в ходе начального раунда инвестиций. Как сообщает DataCenter Dynamics, деньги получены от венчурных инвесторов Scout Ventures, Seldor Capital, 2 Future Holding, The Veteran Fund, Irongate Capital, Atypical Ventures и KittyHawk Ventures, при этом часть из этих средств была привлечена ещё в прошлом году.

По словам главы стартапа Кристофера Стотта (Christopher Stott), компания уже подготовила оборудование и намерена оплатить участие в двух лунных миссиях в 2023 году. Изначально проект Lonestar планировали реализовать ещё в прошлом году, но ответственная за выполнение коммерческих лунных программ компания Intuitive Machines, с которой сотрудничает Lonestar Data Holdings, перенесла как сроки (II квартал), так и место высадки (в районе лунного южного полюса). Вторая миссия запланирована на IV квартал, а вот третья будет организована только в 2025 году.

 Источник изображения: Lonestar Data Holdings

Источник изображения: Lonestar Data Holdings

Считается, что хранение и обеспечение безопасности данных будут чрезвычайно важны для новой волны лунной экспансии, поэтому лунные ЦОД будут чрезвычайно востребованы в «новой космической экономике». Оборудование базе многоядерных процессоров RISC-V предоставит Skycorp, а NVMe SSD подготовила Phison. Подходящая память тоже имеется. Lonestar намерена предоставлять клиентам возможности резервного копирования и периферийных вычислений. Впрочем, разгуляться не выйдет — первый ЦОД будет размером с книгу и будет питаться от солнечной энергии.

Это не первый подобный проект. Так, Thales Alenia Space совместно с рядом компаний разрабатывает целый комплекс решений для лунной миссии Artemis, который включает помимо прочего лунный дата-центр и даже 4G-сеть. Также комания изучает возможность создания космических ЦОД на орбите.

Постоянный URL: http://servernews.ru/1083027
01.03.2023 [01:01], Сергей Карасёв

«Аквариус» выпустил серверы T50 D202FW и T50 D204CF

Компания «Аквариус», крупный российский производитель серверного оборудования, представила новые серверы серии Аquarius T50 — модели D202FW и D204CF. Решения, как отмечается, могут применяться для создания, модернизации и расширения виртуализированных сред, частных, гибридных и публичных облаков.

Устройства позволяют реализовать архитектуру периферийных вычислений для мультисервисного доступа, которая применяется в телекоммуникационной сфере. Подход основан на развёртывании серверов на границах сетей: он даёт возможность осуществлять первичную обработку данных перед их передачей в ЦОД.

2U-модель Аquarius T50 D202FW допускает установку двух процессоров Intel Xeon Cascade Lake-SP с показателем TDP до 165 Вт. Доступны 16 слотов для модулей DDR4-2933 суммарным объёмом до 4 Тбайт. Подсистема хранения данных может объединять по два накопителя SFF (SAS/SATA; толщина до 15 мм) и M.2 M-Key 2242/2260/2280 (или один формата 22110) с интерфейсом SATA-3 или PCIe 3.0 х2.

 Источник изображений: «Аквариус»

Источник изображений: «Аквариус»

Имеются четыре слота расширения PCIe 3.0 x16 для низкопрофильных карт (3 FL и 1 HL), два сетевых порта Intel X722 (MAC)/X557 (PHY) 1/10GbE (RJ45), контроллер Aspeed AST 2500, последовательный порт RS-232, разъёмы USB 3.0 Type-A и D-Sub. В системе воздушного охлаждения задействованы четыре 80-мм вентилятора. Возможна установка двух блоков питания мощностью до 1200 Вт с сертификатом 80 PLUS Platinum/Titanium.

2U-сервер Аquarius T50 D204CF, в свою очередь, поддерживает два чипа Xeon Cascade Lake-SP с показателем TDP до 250 Вт. Он оборудован 24 слотами для модулей ОЗУ суммарным объёмом до 6 Тбайт. В лицевой части расположены четыре отсека для SFF-накопителей SAS/SATA. Кроме того, есть два коннектора M.2 для твердотельных модулей (до 22110). Система несёт на борту сетевой адаптер Intel I210 стандарта 1GbE и контроллер Aspeed AST 2500.

За возможности расширения отвечают два слота PCIe 3.0 x16 (FH), пара разъёмов OCPv2 (тип 1) PCIe 3.0 x16, три слота PCIe 3.0 x8 (FH). Система охлаждения включает шесть двухроторных вентиляторов диаметром 60 мм. Могут быть применены два блока питания мощностью до 1200 Вт с сертификатом 80 PLUS Platinum/Titanium.

Постоянный URL: http://servernews.ru/1083314
21.09.2022 [01:10], Алексей Степин

NVIDIA представила платформу IGX для «умной» промышленности и медицины

Помимо новых GPU с архитектурой Ada компания NVIDIA на конференции GTC 2022 анонсировала множество новинок и не последней из них стала новая периферийная платформа IGX, призванная вывести «умную» промышленность на новый уровень. Главный упор в IGX сделан на обеспечении повышенной безопасности, причём как информационной, так и физической.

Использовать совместный труд роботов в промышленности пытаются уже давно, но до недавних пор такие решения были нестандартными и весьма дорогостоящими. IGX призвана обеспечить безопасность, стандартизацию и высокий уровень производительности, достаточный для современной робототехники.

Сердцем платформы IGX являются высокоинтегрированные модули серии Jetson AGX Orin, сочетающие в себе достаточно мощный процессор общего назначения, GPU-ускоритель, ускорители ИИ, машинного зрения, а также отдельный сопроцессор sMCU, отвечающий за обеспечение безопасности в проактивном режиме. Последний работает в комплексе с новыми программными расширениями, легко интегрируемыми в большинство коммерческих ОС благодаря сопутствующему программному стеку NVIDIA AI Enterprise.

 NVIDIA IGX. Здесь и далее источник изображений: NVIDIA

NVIDIA IGX. Здесь и далее источник изображений: NVIDIA

Что касается проактивной защиты, то, к примеру, получив сигнал с видеокамер о том, что человек приближается к «зоне ответственности» роботов, система автоматически изменит траекторию движения последних, предупредит сотрудников, а также на основании полученных данных скорректирует поведение роботов в дальнейшем. Также с помощью технологии «цифровых двойников» можно будет провести симуляцию, дабы заранее выяснить возможные точки потенциально опасных столкновений машин и людей.

 NVIDIA IGX сделает подобные сценарии безопасными

NVIDIA IGX сделает подобные сценарии безопасными

Производительность центрального модуля IGX составляет 275 Топс в режиме INT8. Обеспечение сетевых возможностей возложено на плечи современного сетевого адаптера ConnectX-7, гарантирующего прецизионные тайминги, позволяющие использовать платформу не только в промышленности, но и в медицине, где вопросы безопасности и точности жизненно важны.

Естественно, индустрия нового поколения не может обойтись без унифицированных средств управления и обеспечения кибербезопасности. Весь комплекс решений на базе новой платформы IGX может развёртываться и управляться с единой консоли с помощью облачной системы NVIDIA Fleet Command. За безопасность при этом отвечает выделенный контроллер. На более высоком уровне за интеграцию новой платформы в единую экосистему отвечает фреймворк NVIDIA Metropolis, с помощью которого можно создавать по-настоящему крупномасштабные комплексы, включая целые «умные города».

 Программно-аппаратный состав новой платформы

Программно-аппаратный состав новой платформы

Отдельного упоминания заслуживает то, что новая платформа NVIDIA IGX избрана в качестве основы разработчиками медицинских систем, в частности, цифровой и робо-хирургии, такими как Activ Surgical, Moon Surgical и Proximie. Это стало возможным как благодаря аппаратным свойствам платформы, таким как низкая латентность и гарантированное время отклика, так и сочетанию фреймворков MONAI и Clara Holoscan.

Первый позволяет обучать специфические ИИ-модели на основании массивов медицинских данных. Эти модели затем могут интегрироваться с помощью Clara Holoscan SDK в реальные системы ультразвукового сканирования, эндоскопии или робохирургии. Помимо встроенных средств ускорения IGX, Clara Holoscan поддерживает и внешние ускорители NVIDIA RTX A6000, а технология Rivermax обеспечит передачу видеоданных для робота-хирурга на скорости 100 Гбит/с прямо в набортную память GPU.

Комплекты разработчика IGX Orin будут доступны заказчикам в начале следующего года. Уже достигнуты соглашения с производителями встраиваемого оборудования ADLINK, Advantech, Dedicated Computing, Kontron, Leadtek, MBX, Onyx, Portwell, Prodrive Technologies и YUAN; уже испытывает новинку в деле Siemens. Также NVIDIA сотрудничает с Canonical, Red Hat и SUSE в целях обеспечения долговременной поддержки платформы, срок которой составит не менее 10 лет.

Постоянный URL: http://servernews.ru/1074562
16.04.2022 [23:54], Алексей Степин

Космический суперкомпьютер HPE Spaceborne-2 успешно завершил 24 эксперимента на МКС

Периферийные вычисления подразумевают работу достаточно мощных серверов в нестандартных условиях. Казалось бы, 400 километров — не такое уж большое расстояние. Но если это высота орбиты космической станции, то более «периферийное» место найти будет сложно. А ведь если человечество планирует и далее осваивать космос, оно неизбежно столкнётся и с проблемами, свойственными космическим ЦОД.

Первый космический суперкомпьютер, как его окрестили создатели из HPE, появился в 2017 году и успешно проработал на орбите 615 дней. Инженеры учли выявленные особенности работы такой системы на орбите и в прошлом году отправили на МКС Spaceborne-2 (SBC-2), который стал вдвое производительнее предшественника.

 HPE Spaceborne-1

HPE Spaceborne-1

Хотя SBC-2 по земным меркам и невелик и состоит всего из двух вычислительных узлов (HPE Edgeline EL4000 и HPE ProLiant DL360 Gen10, совокупно чуть более 2 Тфлопс), это самая мощная компьютерная система, когда-либо работавшая в космосе. К тому же, это единственная космическая вычислительная система, оснащённая ИИ-ускорителем NVIDIA T4.

 HPE Spaceborne-2 (Изображения: HPE)

HPE Spaceborne-2 (Изображения: HPE)

Теперь же HPE сообщает, что эта машина меньше чем за год помогла в проведении 24 важных научных экспериментов. Всё благодаря достаточно высокой производительности. Одним из первых стал стал анализ генов — обработка данных непосредственно на орбите позволила снизить объём передаваемой информации с 1,8 Гбайт до 92 Кбайт. Но это далеко не единственный результат.

Так, ИИ-ускорители были задействованы для визуального анализа микроскопических повреждений скафандров, используемых для выхода в открытый космос. Они же помогли в обработке данных наблюдения за крупными погодными изменениями и природными катаклизмами. Также был проведён анализ поведения металлических частиц при 3D-печати в невесомости, проверена возможность работы 5G-сетей космических условиях, ускорены расчёты требуемых объёмов топлива для кораблей и т.д.

Ряд проблем ещё предстоит решить: в частности, в условиях повышенной космической радиации существенно быстрее выходят из строя SSD, что естественно для технологии, основанной на «ловушках заряда». По всей видимости, для дальнего космоса целесообразнее будет использовать накопители на базе иной энергонезависимой памяти. Впрочем, при освоении Луны или Марса полагаться на земные ЦОД тоже будет трудно, а значит, достаточно мощные вычислительные ресурсы придётся везти с собой.

Постоянный URL: http://servernews.ru/1064130
26.03.2022 [00:48], Владимир Агапов

Микро-ЦОД вместо котельной — Qarnot предложила отапливать дома б/у серверами

«Зелёная» экономика, переход на которую стремится осуществить всё больше стран, требует радикального сокращения вредного воздействия техносферы на окружающую среду. Один из эффективных способов достижения этой задачи связан с включением в полезный оборот побочных продуктов экономической деятельности. В случае дата-центров таким продуктом является тепло.

Великобритания, Дания и другие страны направляют тепло от ЦОД в отопительные системы домов, а Норвегия обогревает им омаровые фермы и планирует обязать дата-центры отдавать «мусорное» тепло на общественные нужды. Французская компания Qarnot решила посмотреть на эту задачу под другим углом, разработав в 2017 г. концепцию электрообогревателя для жилых и офисных помещений на процессорах AMD и Intel.

 Изображение: Qarnot (via DataCenterDynamics)

Изображение: Qarnot (via DataCenterDynamics)

В 2018 г. Qarnot продолжила изыскания и выпустила криптообогреватель QC-1. А недавно она порадовала своих заказчиков следующим поколением отопительных устройств QB, которое создано в сотрудничестве с ITRenew. Новые модули используют OCP-серверы, которые ранее работали в дата-центрах гиперскейлеров. Оснащённые водяным охлаждением, они обогревают помещения пользователей и обеспечивают дополнительные мощности для периферийных облачных вычислений.

Система отводит 96% тепла, производимого кластером серверов, которое попадает в систему циркуляции воды. IT-часть состоит из процессоров AMD EPYC/Ryzen или Intel Xeon E5 в составе OCP-платформ Leopard, Tioga Pass или Capri с показателем PUE, который, по словам разработчиков, стремится к 1,0. При этом вся система практически бесшумная, поскольку вентиляторы отсутствуют.

В компании заявляют, что с февраля уже развёрнуто 12 000 ядер, и планируется довести их число до 100 000 в течении 2022 года. Среди предыдущих заказчиков систем отопления Qarnot числятся жилищные проекты во Франции и Финляндии, а также банк BNP и клиенты, занимающиеся цифровой обработкой изображений.

По словам технического директора Qarnot Клемента Пеллегрини (Clement Pellegrini), QB приносит двойную пользу экологии, используя не только «мусорное» тепло, но и оборудование, которое обычно утилизируется. У ITRenew уже есть очень похожий совместный проект с Blockheating по обогреву теплиц такими же б/у серверами гиперскейлеров.

Постоянный URL: http://servernews.ru/1062792
24.02.2022 [19:00], Алексей Степин

Intel анонсировала процессоры Xeon D-1700 и D-2700: Ice Lake-SP + 100GbE

Концепция периферийных вычислений сравнительно молода и до недавнего времени зачастую её реализации были вынуждены обходиться стандартными процессорами, разработанными для применения в серверах, или даже в обычных ПК и ноутбуках. Intel, достаточно давно имеющая в своём арсенале серию процессоров Xeon D, обновила модельный ряд этих CPU, которые теперь специально предназначены для использования на периферии.

 Изображения: Intel

Изображения: Intel

Анонс выглядит очень своевременно, поскольку по оценкам Intel, к 2025 году более 50% всех данных будет обрабатываться вне традиционных ЦОД. Новые серии процессоров Xeon D-1700 и D-2700 обладают рядом свойств, востребованных именно на периферии — особенно на периферии нового поколения.

Новинки имеют следующие особенности:

  • Интегрированный 100GbE-контроллер (до 8 портов) с поддержкой RDMA iWARP и RoCE v2;
  • Интегрированный коммутатор и обработчик пакетов у Xeon D-2700;
  • До 32 линий PCI Express 4.0;
  • Поддержка Intel QAT, SGX и TME;
  • Поддержка AVX-512, в том числе VNNI/DL Boost;
  • Поддержка технологий TSN/TCC, критичных для систем реального времени.

Последний пункт ранее был реализован в процессорах серий Atom x6000E, Xeon W-1100E и некоторых процессорах Core 11-го поколения. Вкратце это технология, позволяющая координировать вычисления с точностью менее 200 мкс в режиме TCC за счёт точной синхронизации таймингов внутри платформы. И здесь у Xeon D, как у высокоинтегрированной SoC, есть преимущество в реализации подобного класса точности. Помогает этому и наличие специального планировщика для общего кеша L3, позволяющего добиться более консистентного доступа к кешу и памяти.

Это незаменимая возможность для систем, обслуживающих сверхточные промышленные процессы, тем более что Intel предлагает хорошо документированный набор API и средств разработки для извлечения из режима TCC всех возможностей. Важной также выглядит наличие поддержки пакета технологий Intel QuickAssist (QAT) для ускорения задач (де-)шифрования и (де-)компрессии.

Третье поколение QAT, доступное, правда, только в Xeon D-2700, в отличие от второго (и это случай D-1700), связано в новых SoC непосредственно с контроллером Ethernet и встроенным программируемым коммутатором. В частности, поддерживается, и IPSec-шифрование на лету (inline) на полной скорости, и классификация (QoS) трафика. Также реализована поддержка новых алгоритмов, таких, как Chacha20-Poly1305 и SM3/4, имеется собственный движок для публичных ключей, улучшены алгоритмы компрессии.

Но QAT может работать и совместно с CPU (lookaside-разгрузка), а можно и вовсе обойтись без него, воспользовавшись AES-NI. Поддержке безопасности помогает и полноценная поддержка защищённых вычислительных анклавов SGX, существенно ограничивающая векторы атак как со стороны ОС и программного обеспечения, так и со стороны гипервизора виртуальных машин. Это важно, поскольку на периферии уровень угрозы обычно выше, чем в контролируемом окружении в ЦОД, но для использования SGX требуется модификация ПО.

В целом, «ядерная» часть новых Xeon-D — это всё та же архитектура Ice Lake-SP. Так что Intel в очередной раз напомнила про поддержку DL Boost/VNNI для работы с форматами пониженной точности и возможности эффективного выполнения инференс-нагрузок — новинки почти в 2,5 раза превосходят Xeon D-1600. Есть и прочие стандартные для платформы функции вроде PFR или SST. Из важных дополнений можно отметить поддержку Intel Slim BootLoader.

Масштабируемость у новой платформы простирается от 2 до 10 (D-1700) или 20 (D-2700) ядер, а TDP составляет 25–90 и 65–129 Вт соответственно. В зависимости от модели поддерживается работа в расширенном диапазоне температур (до -40 °C). У обоих вариантов упаковка BGA, но с чуть отличными размерами — 45 × 45 мм против 45 × 52,5 мм. На этом различия не заканчиваются. У младших Xeon D-1700 поддержка памяти ограничена тремя каналами DDR4-2933, а вот у D-2700 четыре полноценных канала DDR4-3200.

Однако возможности работы с Optane PMem обе модели лишены, несмотря на то, что контроллер памяти их поддерживать должен. Представитель Intel отметил, что если будет спрос со стороны заказчиков, то возможен выпуск вариантов CPU с поддержкой PMem. Дело в том, что прошлые поколения Xeon-D использовались и для создания СХД, а наличие 100GbE-контроллера с RDMA делает новинки не менее интересными для этого сегмента.

Кроме того, есть и поддержка NTB, да и VROC с VMD вряд ли исчезли. Для подключения периферии у D-2700 доступно 32 линии PCIe 4.0, а у D-1700 — 16. У обоих серий CPU также есть 24 линии HSIO, которые на усмотрение производителя можно использовать для PCIe 3.0, SATA или USB 3.0. Впрочем, пока Intel предлагает использовать всё это разнообразие интерфейсов для подключения ускорителей и различных адаптеров.

Поскольку в качестве одной из основных задач для новых процессоров компания видит их работу в качестве контроллеров программно-определяемых сетей, включая 5G, она разработала для этой цели референсную платформу. В ней предусматривается отдельный модуль COM-HPC с процессором и DIMM-модулями, что позволяет легко модернизировать систему. А базовая плата предусматривает наличие радиотрансиверов, что актуально для сценария vRAN.

Поскольку речь идёт не столько о процессорах, сколько о полноценной платформе, Intel серьезное внимание уделила программной поддержке, причём, в основе лежат решения с открытым программным кодом. Это позволит заказчикам систем на базе новых Xeon D разворачивать новые точки и комплексы периферийных вычислений быстрее и проще. Многие производители серверного аппаратного обеспечения уже готовы представить свои решения на базе Xeon D-1700 и 2700.

Постоянный URL: http://servernews.ru/1060623
24.01.2022 [15:37], Сергей Карасёв

Нейроморфный ИИ-ускоритель BrainChip Akida AKD1000 оценён в $499

Компания BrainChip сообщила о начале продаж специализированной карты расширения Akida AKD1000, предназначенной для организации периферийных ИИ-вычислений. Цена изделия составляет $499: оно доступно для заказа в количестве до десяти штук.

Сама плата имеет размеры 76 × 40 × 5,3 мм и использует интерфейс PCI Express 2.0 x1. В основу положен одноимённый нейроморфный процессор, дополненный ядром Arm Cortex-M4 (300 МГц). Akida AKD1000 предлагает 1,2 млн нейронов и 10 млрд синапсов. Решение содержит 512 Мбайт памяти LPDDR4-2400 и 128 Мбит флеш-памяти Quad SPI NOR.

 Источник изображений: BrainChip

Источник изображений: BrainChip

Отмечается, что BrainChip предоставит заказчикам всю необходимую документацию, что позволит системным интеграторам и разработчикам создавать собственные решения на базе ИИ-акселератора. Создание, обучение и тестирование нейросетей осуществляется в среде MetaTF с поддержкой Tensorflow и Keras, а также набором готовых моделей и конвертером CNN-SNN.

На поставку новых карт Akida AKD1000 будет уходить около восьми недель после оформления заказа. Эти сроки будут варьироваться в зависимости от работы логистических цепочек. Впрочем, это временные ограничения, так как, по словам компании, налажено массовое производство. Ранее BrainChip выпустила комплекты разработчика на базе ПК Shuttle и Raspberry Pi

Постоянный URL: http://servernews.ru/1058600
19.12.2021 [18:06], Алексей Степин

Nebulon поможет HCI-решениям освоить рынок периферийных вычислений

По мере внедрения 5G-сетей объёмы данных, добываемых и обрабатываемых на периферии, будут только расти, и здесь новое решение Nebulon для микро-ЦОД окажется весьма к месту.

Компания Nebulon была основана лишь 2018 году, а в 2020 году она представила свои первые решения, концептуально очень схожие с тем, что сейчас принято называть DPU. Изначально это были ускорители под названием SPU (Storage Processing Unit), однако впоследствии первое слово заменили на Service, поскольку речь шла уже об облачных системах, и данные платы стали частью того, что сама Nebulon называет «умной инфраструктурой» (Smart Infrastructure).

 Nebulon SPU. Изображения: Nebulon

Nebulon SPU. Изображения: Nebulon

Но у SPU нашлось и ещё одно применение, связанное с периферийной серверной инфраструктурой. Её особенности таковы, что требуют максимальной компактности оборудования, и это, по мнению Nebulon, затрудняет использование классических решений для гиперконвергентной инфраструктуры (HCI), поскольку, по словам Nebulon, она обычно для арбитража, который необходим для стабильности работы, требует наличия в системе минимум трёх узлов.

 Схематическое устройство Nebulon SPU

Такой «узел-арбитр» (quorum witness, QW) гарантирует бесперебойную работу системы в том случае, если какой-либо из её основных узлов испытывает проблемы с сетевым подключением. Но в условиях периферии третьему узлу бывает просто негде разместиться, а ведь нужен ещё и сетевой коммутатор. Тут-то на помощь и может прийти ускоритель Nebulon SPU, который можно назвать полноценным «сервером на плате»: он несёт на борту восьмиядерный CPU и 32 Гбайт DRAM.

Основным интерфейсом SPU является PCIe 3.0 x16 (8 линий) + ещё два набора по 8 линий могут обслуживать NVMe SSD (но есть и поддержка SAS/SATA). С такой платой HCI-кластер может иметь в составе всего два узла. Коммутатор не требуется, поскольку плата располагает двумя портами 10/25GbE. Интеграцию такого HCI-кластера с облаком, автоматизацию и арбитраж посредством Nebulon ON также берёт на себя SPU. Компания-разработчик назвала данную технологию smartEdge.

Постоянный URL: http://servernews.ru/1056120
Система Orphus